无监督的生成的虚拟人类具有各种外观和动画姿势对于创建3D人体化身和其他AR/VR应用非常重要。现有方法要么仅限于刚性对象建模,要么不生成,因此无法合成高质量的虚拟人类并使它们进行动画化。在这项工作中,我们提出了Avatargen,这是第一种不仅可以具有不同外观的非刚性人类产生的方法,而且还可以完全控制姿势和观点,同时仅需要2D图像进行训练。具体而言,它通过利用粗糙的人体模型作为代理将观察空间扭曲到规范空间下的标准头像,将最近的3D甘斯扩展到了人类的衣服。为了建模非刚性动力学,它引入了一个变形网络,以学习规范空间中的姿势依赖性变形。为了提高生成的人类化身的几何质量,它利用签名距离字段作为几何表示,从而可以从几何学学习上的身体模型中进行更直接的正则化。从这些设计中受益,我们的方法可以生成具有高质量外观和几何形状建模的动画人体化身,从而极大地表现了先前的3D gan。此外,它有能力用于许多应用,例如单视重构造,复活和文本引导的合成。代码和预培训模型将可用。
translated by 谷歌翻译
深度学习方法已被证明可以有效地表示量子多体系统的地面波函数。现有方法由于其图像样结构而使用卷积神经网络(CNN)进行方格。对于非方格晶格,现有方法使用图形神经网络(GNN),其中未精确捕获结构信息,从而需要其他手工制作的Sublattice编码。在这项工作中,我们提出了晶格卷积,其中使用一组建议的操作将非方格晶格转换为类似网格的增强晶格,可以在上进行定期卷积。根据提议的晶格卷积,我们设计了使用自我门控和注意机制的晶格卷积网络(LCN)。实验结果表明,我们的方法在PAR上的性能或比Spin 1/2 $ J_1 $ - $ J_2 $ HEISENBERG模型在Square,Honeycomb,Triangular和Kagome Lattices上的现有方法更好,而无需使用手工制作的编码。
translated by 谷歌翻译
In recent years, interest has arisen in using machine learning to improve the efficiency of automatic medical consultation and enhance patient experience. In this article, we propose two frameworks to support automatic medical consultation, namely doctor-patient dialogue understanding and task-oriented interaction. We create a new large medical dialogue dataset with multi-level finegrained annotations and establish five independent tasks, including named entity recognition, dialogue act classification, symptom label inference, medical report generation and diagnosis-oriented dialogue policy. We report a set of benchmark results for each task, which shows the usability of the dataset and sets a baseline for future studies. Both code and data is available from https://github.com/lemuria-wchen/imcs21.
translated by 谷歌翻译
随着网络基础设施提高,个人贷款的需求增长,对等十年来,对等体(P2P)贷款平台已迅速增长。在没有传统金融机构的帮助下,这些平台允许用户创建对等贷款关系。评估借款人的信贷至关重要,以减少P2P平台的违约率和良性开发。构建个人信用评分机学习模型可以有效预测用户是否会在P2P平台上偿还贷款。并处理数据异常值和样本不平衡问题可能会影响机器学习模型的最终效果。已经有一些关于平衡采样方法的研究,但是对机器学习模型有效性的异常检测方法及其与平衡采样方法的影响尚未得到充分研究。在本文中,研究了使用不同异常检测方法对常用机器学习模型的不同异常检测方法和平衡采样方法的影响。 44,487贷款俱乐部样品的实验表明,适当的异常检测可以提高机器学习模型的有效性,平衡采样方法仅对几种机器学习模型(如MLP)有良好的影响。
translated by 谷歌翻译
快速可靠的连接对于提高公共安全关键任务(MC)用户的情境意识和运营效率至关重要。在紧急情况或灾害环境中,如果现有的蜂窝网络覆盖和容量可能无法满足MC通信需求,可以迅速地利用可部署网络的解决方案,例如单元轮/翼,以确保对MC用户的可靠连接。在本文中,我们考虑一种情况,其中宏基站(BS)由于自然灾害而被破坏,并且设置了携带BS(UAV-BS)的无人驾驶飞行器(UAV-BS)以为灾区中的用户提供临时覆盖。使用5G集成访问和回程(IAB)技术将UAV-BS集成到移动网络中。我们提出了一种框架和信令程序,用于将机器学习应用于此用例。深度加强学习算法旨在共同优化访问和回程天线倾斜以及UAV-BS的三维位置,以便在保持良好的回程连接的同时最佳地服务于地面MC用户。我们的结果表明,所提出的算法可以自主地导航和配置UAV-BS以提高吞吐量并降低MC用户的下降速率。
translated by 谷歌翻译
本文介绍了一种新的方法,为入境驾驶场景的自动车辆产生最佳轨迹。该方法使用两相优化过程计算轨迹。在第一阶段中,优化过程产生具有不同的曲率的闭形驾驶导向线。在第二阶段,该过程将驱动导向线作为输入输出,输出沿着导向线驾驶的车辆的动态可行,混蛋和时间最佳轨迹。该方法对于在弯曲道路上产生轨迹特别有用,其中车辆需要频繁加速和减速以适应离心机加速限制。
translated by 谷歌翻译
路径规划是自治车辆运动规划中的关键组成部分。路径指定车辆将旅行的几何形状,因此,对安全和舒适的车辆运动至关重要。对于城市驾驶场景,自治车辆需要能够在杂乱的环境中导航,例如,道路部分被侧面挡住的车辆/障碍物。如何生成运动学上可行和平滑的路径,可以避免复杂环境中的碰撞,使路径规划有挑战性的问题。在本文中,我们提出了一种新型二次编程方法,可以产生分辨率完全碰撞避免能力的最佳路径。
translated by 谷歌翻译
对抗性的例子揭示了神经网络的脆弱性和不明原因的性质。研究对抗性实例的辩护具有相当大的实际重要性。大多数逆势的例子,错误分类网络通常无法被人类不可检测。在本文中,我们提出了一种防御模型,将分类器培训成具有形状偏好的人类感知分类模型。包括纹理传输网络(TTN)和辅助防御生成的对冲网络(GAN)的所提出的模型被称为人类感知辅助防御GaN(had-GaN)。 TTN用于扩展清洁图像的纹理样本,并有助于分类器聚焦在其形状上。 GaN用于为模型形成培训框架并生成必要的图像。在MNIST,时尚 - MNIST和CIFAR10上进行的一系列实验表明,所提出的模型优于网络鲁棒性的最先进的防御方法。该模型还证明了对抗性实例的防御能力的显着改善。
translated by 谷歌翻译
Large deep neural networks are powerful, but exhibit undesirable behaviors such as memorization and sensitivity to adversarial examples. In this work, we propose mixup, a simple learning principle to alleviate these issues. In essence, mixup trains a neural network on convex combinations of pairs of examples and their labels. By doing so, mixup regularizes the neural network to favor simple linear behavior in-between training examples. Our experiments on the ImageNet-2012, CIFAR-10, CIFAR-100, Google commands and UCI datasets show that mixup improves the generalization of state-of-the-art neural network architectures. We also find that mixup reduces the memorization of corrupt labels, increases the robustness to adversarial examples, and stabilizes the training of generative adversarial networks.
translated by 谷歌翻译
With increasing scale, large language models demonstrate both quantitative improvement and new qualitative capabilities, especially as zero-shot learners, like GPT-3. However, these results rely heavily on delicate prompt design and large computation. In this work, we explore whether the strong zero-shot ability could be achieved at a smaller model scale without any external supervised data. To achieve this goal, we revisit masked language modeling and present a geometry-guided self-supervised learning method (Go-tuningfor short) by taking a small number of task-aware self-supervised data to update language models further. Experiments show that Go-tuning can enable T5-small (80M) competitive zero-shot results compared with large language models, such as T5-XL (3B). We also apply Go-tuning on multi-task settings and develop a multi-task model, mgo-T5 (250M). It can reach the average performance of OPT (175B) on 9 datasets.
translated by 谷歌翻译